推理/微调速度对比:CPU vs. GPU
从算法和模型中暂时休息一下,我们跳入了GPU的世界。上周末,我有机会测试了多个GPU,包括最先进的Nvidia H100、RTX 5090、RTX 4090等。在这篇博客文章中,我将总结它们的性能,并比较它们在AI特定任务中的加速效果,无论是LLMs的推理还是
从算法和模型中暂时休息一下,我们跳入了GPU的世界。上周末,我有机会测试了多个GPU,包括最先进的Nvidia H100、RTX 5090、RTX 4090等。在这篇博客文章中,我将总结它们的性能,并比较它们在AI特定任务中的加速效果,无论是LLMs的推理还是
我们知道,在 DeepSeek 等 AI 模型火起来之后,很多人都把 AI 当成了心理医生。但很多时候,AI 并不能像真正的心理治疗师一样提供专业指导。或许,「人机协作」是条更现实的折中路线。
一项全面新研究揭露了主流云端大语言模型(LLM)平台安全机制存在重大漏洞与不一致性,对当前人工智能安全基础设施现状敲响警钟。该研究评估了三大领先生成式AI平台的内容过滤和提示注入防御效果,揭示了安全措施在阻止有害内容生成与保持用户可访问性方面存在显著差异。
美国突然掐断了国产芯片的EDA供应,Cadence、Synopsys、西门子三大厂全部被迫停止供应,不过这也是美国再次“助攻”国产科技行业,国产EDA厂商迎来了新机遇。
谷歌的核心业务——搜索引擎,正在面临AI技术所带来的重大挑战。埃隆·马斯克提出的"AI将取代搜索"的观点正在获得越来越多的行业认同。这个转变正在影响整个数字营销生态,特别是价值数百亿美元的SEO(搜索引擎优化)行业。传统的SEO主要依靠关键词优化、反向链接建设
为此,来自苏黎世联邦理工学院、瑞士联邦最高法院、马克斯-普朗克研究所及苏黎世大学等多个机构的研究人员联合发起并发布了一项全新的、多语言法律推理基准数据集——LEXam。
在强化学习(Reinforcement Learning, RL)中,蒙特卡洛方法通过采样完整轨迹(trajectory)来估计状态或动作的价值函数(Value Function)。在优化大型语言模型(LLM)的上下文中,轨迹指的是LLM生成的一个完整响应(f
书接上回,自从重金购买了学习AI的设备后,总得找点事情干! 这不,就有个小需求,需要训练私域数据,那么我们就从Anything LLM的API封装做起。在当今快速发展的人工智能领域,大型语言模型(LLM)已成为企业应用的重要组成部分。Anything LLM作
随着AI技术的飞速发展,传统的搜索引擎优化(SEO)正逐渐失去其主导地位,而一种新兴的优化技术——生成引擎优化(GEO)正在崛起。本文深入探讨了SEO与GEO的差异,分析了GEO如何通过优化大语言模型(LLM)的内容生成和呈现方式,重塑数字营销的生态。
人类的思维是非透明的,没有继承的记忆,因此需要通过语言交流的环境来学习。人类的知识传递长期依赖符号语言:从文字、数学公式到编程代码,我们通过符号系统将知识编码、解码。但这种方式存在天然瓶颈,比如信息冗余、效率低下等。
七年前,苹果从谷歌挖角 AI 大牛 John Giannandrea(业界称 JG),意图打造 AI 梦之队,补齐 Siri 的短板,将 AI 的魔法注入每一台 iPhone、每一项服务。然而,七年光阴倏忽而过,曾经的雄心壮志似乎正被残酷的现实消磨。
卡内基梅隆大学、加州大学圣巴巴拉分校和德克萨斯大学奥斯汀分校的研究团队,包括Zhongmou He、Yee Man Choi、Kexun Zhang、Jiabao Ji、Junting Zhou、Dejia Xu、Ivan Bercovich、Aidan Zh
在当今的数字时代,高质量的合成数据已成为研究、创新和政策制定的关键推动力,特别是在隐私保护、法律限制或物流障碍使真实数据难以获取的情况下。麦吉尔大学的唐义宏(Yihong Tang)、孔梦林(Menglin Kong)和孙立军(Lijun Sun)教授团队最近
在互联网世界中,验证码(CAPTCHA)就像是网站的门卫,守护着网络服务不被机器人滥用。然而,对于那些旨在自动化网页任务的人工智能助手来说,这些验证码却成了一道难以逾越的障碍。2025年5月,来自MBZUAI(穆罕默德·本·扎耶德人工智能大学)VILA实验室和
上个月 21 号,Google I/O 2025 开发者大会可说是吸睛无数,各种 AI 模型、技术、工具、服务、应用让人目不暇接。在这其中, Gemini Diffusion 绝对算是最让人兴奋的进步之一。从名字看得出来,这是一个采用了扩散模型的 AI 模型,
在AI技术飞速发展的今天,如何高效地学习和掌握新知识成为许多人面临的挑战。本文作者云舒通过亲身实践,分享了一套基于秘塔AI工具的学习方法,不仅显著提升了学习速度,还帮助他更好地理解和应用复杂的知识。
近年来,随着人工智能技术的发展,多模态大型语言模型(MLLMs)在图表理解方面取得了长足进步。然而,这些模型经常面临一个关键问题:幻觉现象——即模型生成的文本内容与所提供的视觉数据不符。这就像是我们请了一位解说员描述一张图表,但他却时不时地"凭空想象"出图表中
在人工智能快速发展的今天,大型语言模型(LLMs)已成为我们日常生活的一部分。然而,这些模型如何做出选择?它们偏好某些回答而非其他回答的原因是什么?以色列理工学院(Technion)的Nitay Calderon、IBM研究院的Liat Ein-Dor和Tec
模型 概念 llm calderon calderon团队 2025-06-03 21:40 7
近日,首尔国立大学的研究团队Jaewoo Ahn、Heeseung Yun、Dayoon Ko和Gunhee Kim在arXiv上发表了一篇引人深思的研究论文,题为《Can LLMs Deceive CLIP? Benchmarking Adversarial
在人工智能研究领域,学术突破与安全伦理始终如影随形。伊利诺伊大学香槟分校的研究团队,包括Kunlun Zhu、Jiaxun Zhang、Ziheng Qi、Nuoxing Shang、Zijia Liu、Peixuan Han、Yue Su、Haofei Yu